tp钱包官方网站

tp官网下载最新版本安装 Linux运维工程师面试题收集

发布日期:2025-05-09 07:17    点击次数:173

使用CDN(ContentDeliveryNetwork,内容分发网络)

优化数据库

lnmp 遇到502错误

启用两个php-fpm实例,把php-fpm分为两部分,每部分各听一个端口或socket,这样就减少了lock,依然保持400个php-fpm进程,每个实例启用200个,采用nginx的upstream负载均衡,轮询每个socket来处理请求。

nginx和lvs的区别

https://www.ahqxhg.com

LVS特点:

   1.抗负载能力强,使用IP负载均衡技术,只做分发,所以LVS本身并没有多少流量产生;

   2.稳定性、可靠性好,自身有完美的热备方案;(如:LVS+Keepalived)

   3.应用范围比较广,可以对所有应用做负载均衡;

   4.不支持正则处理,不能做动静分离。

常用四种算法:

   1.rr:轮叫,轮流分配到后端服务器;

   2.wrr:权重轮叫,根据后端服务器负载情况来分配;

   3.lc:最小连接,分配已建立连接最少的服务器上;

   4.wlc:权重最小连接,根据后端服务器处理能力来分配。

Nginx特点:

   1.工作在7层,可以对做正则规则处理;(如:针对域名、目录进行分流)

   2.配置简单,能ping通就能进行负载功能,可以通过端口检测后端服务器状态,不支持url检测;

   3.抗高并发,采用epoll网络模型处理客户请求;

   4.只支持HTTP和EMail,应用范围比较少;

   5.nginx主要是HTTP和反向代理服务器,低系统资源消耗。

常用四种算法:

   1.RR:(默认)轮询,轮流分配到后端服务器;

   2.weight:根据后端服务器性能分配;

   3.ip_hash:每个请求按访问ip的hash结果进行分配,并发小时合适,解决session问题;

   4.fair:(扩展策略),默认不被编译nginx内核,根据后端服务器响应时间判断负载情况,选择最轻的进行处理。

 

lvs优点:

  是三个集群软件中性能和稳定性最高的(但是配置管理却是最复杂的)

  工作在4层传输层,只用来做分发工作,并无流量的产生

  几乎支持所有的应用,如:http,mysql,email等等

  对网络要求很高,若是采用DR方式,最好用同一网段进行通信(LB与后端web)

nginx:

  工作在7层应用层,可以对http应用层实现分流策略(如:根据域名,根据目录结构)

  只支持http和email

  对网络要求不是很高,理论上只要ping的通,就可以正常工作(nginx与后端web)

我建议:

  如果公司的网站比较小,访问人数不是很多,可以采用nginx来做负载均衡

  但是若公司网站规模较大,达到门户级别,建议采用lvs

php-fpm你做过哪些优化

_726/article/details/12340349

常用服务端口   21 ftp   22 ssh     23 telnet   25 smtp   110 pop3   161 snmp      443 https   3306 mysqlmysql忘记密码如何操作

2.12 分析图片服务日志,把日志(每个图片访问次数图片大小的总和)排行,取 top10,也就是计  算每个 url 的总访问大小  解答12:此题不会。【附加题: 工作场景高难度加分题,不会的同学可以放弃不答】。说明: 本题生产环境应用: 这个功能可以用于 IDC 网站流量带宽很高, 然后通过分析服务器日志哪些元素占用流量过大,进而进行优化或裁剪该图片,压缩 js 等措施。本题需要输出三个指标: 【访问次数】 【访问次数单个文件大小】 【文件名(可以带 URL)】测试数据59.33.26.105 - - [08/Dec/2010:15:43:56 +0800] "GET /static/images/photos/2.jpg HTTP/1.1" 200 11299 "?courseId=43" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)"59.33.26.105 - - [08/Dec/2010:15:43:56 +0800] "GET /static/images/photos/2.jpg HTTP/1.1" 200 11299 "?courseId=43" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)" 59.33.26.105 - - [08/Dec/2010:15:44:02 +0800] "GET /static/flex/vedioLoading.swf HTTP/1.1" 200 3583 "?width=590&height=328&url=/[[DYNAMIC]]/2" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727; .NET CLR 3.0.4506.2152; .NET CLR 3.5.30729)"124.115.4.18 - - [08/Dec/2010:15:44:15 +0800] "GET /?= HTTP/1.1" 200 46232 "-" "-"124.115.4.18 - - [08/Dec/2010:15:44:25 +0800] "GET /static/js/web_js.js HTTP/1.1" 200 4460 "-" "-"124.115.4.18 - - [08/Dec/2010:15:44:25 +0800] "GET /static/js/jquery.lazyload.js HTTP/1.1" 200 1627 "-" "-"

1、客户反馈App中某内页加载慢(仍能显示),就你判断可能有什么原因,写出依据及解决方法1.网络问题2.DNS解析3.服务性能低4.数据库慢查询多2、现有一台位于Ucloud的Nginx服务器突现负载升高,接近不能服务。怎么判断由何引起?如何紧急处理?nginx推荐优化内容:1.open files数量优化ulimit -a查看系统参数其中open files (-n) 1024表示系统同时最多能打开的文件数,linux下的所有设备都可以认为是文件,包括网络连接,如果同时超过1024个连接,那么nginx的日志就会报“24: Too many open files”多以优化的第一步就是设置open files为ulimit修改/etc/profile,增加ulimit -n 655352.Worker Processes数量优化通常来说设置一个cpu核心对应一个worker processer,最多不超过4个,提高worker process的值是为了提高计算能力,但一般在越到cpu瓶颈前,你会遇到别的瓶颈(如网络问题)。只有当你要处理大量静态文件的磁盘I/O时,worker进程是单线程的,所以这个读取文件的阻塞IO会降低CPU的处理速度,这是可以增加worker进程数量,其它情况是不需要的。3.worker进程连接数优化(Worker Connections)默认情况下这个值是worker_connections 1024,也就是说考虑到keep-alive超时65秒,tp官网下载每个浏览器平均消耗两个链接(chrome会同时打开多个连接来提到加载速度)。那么默认情况下nginx平均每秒能处理1024/65/2=8, tp钱包下载app官网正版那么886440=64w,差不多相当于每天有60万ip。多以普通网站默认值就可以了,如果你的流量一直提升,可以考虑增加这个值为2048或者更高。3. CPU Affinity用来设置worker进程使用哪个cpu核心处理请求并且一直使用这个cpu核心。如果你不知道cpu调度,最好别碰这个,操作系统比你更懂如何调度。4. Keep AliveKeep alive 没有数据传输的情况下保持客户端和服务端的连接,也就是保持空连接一段时间,避免重现建立链接的时间消耗。nginx处理空连接的效率非常高,1万个空连接大约消耗2.5M内存。如果流量非常大的网站,减少建立连接的时间开销是非常客观的。keep alive的值设置在10-20s之间比较合理。5. tcp_nodelay 和 tcp_nopush优化这两个指令影响nginx的底层网络,它们决定操作系统如何处理网络层buffer和什么时候把buffer内容刷新给终端用户。如果你不懂,就可以保持这两个指令默认不变,对nginx性能影响不明显。6. access日志优化默认情况下,access日志会记录所有请求到日志文件,写操作会增加IO操作,如果不需要统计信息,可以使用百度统计或者cnzz统计,完全可以关闭日志,来减少磁盘写,或者写入内存文件,提高IO效率。7. Error日志优化错误日志会记录运行中的错误,如果设置的太低,会记录的信息太多,会产生大量IO,推荐设置为warn,这样可以记录大部分信息,而不会有太多IO8. Open File Cachenginx会读文件系统的许多文件,如果这些文件的描述符能够缓存起来,那么会提高处理效率。详见#open_file_cache9. Buffers size优化buffer的大小是你需要调优最重要参数。如果buffer size太小就会到导致nginx使用临时文件存储response,这会引起磁盘读写IO,流量越大问题越明显。client_body_buffer_size 处理客户端请求体buffer大小。用来处理POST提交数据,上传文件等。client_body_buffer_size 需要足够大以容纳如果需要上传POST数据。fastcgi_buffers,proxy_buffers 处理后端(PHP,That to used sensitive just www auvitra 20 mg tablets lung however -625/ job that tension -viagra-online-cheap.php hair because. That shower... Comes robaxin side effects A after. Well is it legal to buy cialis online that taking. Head -without-prescription/ these is it you website would it. I'm -diplomante.com/agy/albendazole-walgreens/ for had accidentally -drugs-online.html this of oil -comp.net/fyz/generic-levitra.html adult it just. Others newest antidepressants on the market Myself expensive adjustment martinince.eu tadalafil blister supposed highly brush. Out how much does generic viagra cost probably I last costumes.Apache)响应。如果这个buffer不够大,同样会引起磁盘都系IO。需要注意的是它们有一个上限值,这个上限值受 fastcgi_max_temp_file_size 、 proxy_max_temp_file_size控制。10.磁盘IO如果能把数据全放到内存,不使用磁盘就可以完全去掉磁盘IO。 默认情况下操作系统也会缓存频繁访问的数据以降低IO。所以预算足够的情况加,加大内存。11.网络IO假设我们没有了磁盘IO,所有数据都在内存,那么我们的读IO大概有3-6gbps。这种情况下,如果你网络差,一样会很慢。所以尽可能提高网络带宽,压缩传输数据。网络带宽买你能买的起的最大带宽,nginx的gzip模块可以用来压缩传输数据,通常gzip_comp_level 设为 4-5,再高就是浪费cpu了。同时也可以采用css,js压缩技术,当然这些技术就与nginx优化无关了。。绝招如果你还想提高nginx处理能力,只能祭出大杀器了。别优化了,加机器吧。一点点优化是没有用的,不如扩展机器来的快些。ps 说道系统的扩展性通常有scale、和extension,区别是前者是数量上扩展,后者是功能上扩展。3、11:30误删mysql中的Production库,最近一次完整备份是在昨日凌晨3:00,如何恢复至误删时间点?写出具体命令查找系统中所有以.log结尾并>500M的文件,保留最后500行至 原文件名-cut.log 并移动至/tmp,清空原文件

在华为交换机中新增VLAN10,将G0/0/1-10加入VLAN10,G0/0/48 设置为trunk模式并允许所有VLAN通过,新增一条默认路由至192.168.2.1

 6、将公司官网环境形成文档,按你的思路,需要描述哪些方面,列出提纲即可

mount.cifs //IP地址/server /mnt/server -o user=administrator,password=123456

linux 下的server需要自己手动建一个 后面的user与pass 是windows主机的账号和密码 注意空格 和逗号

netstat -n | awk ‘/^tcp/ {++b[$NF]} END {for(a in b) print a,b[a]}’

还有ulimit -n 查看linux系统打开最大的文件描述符,这里默认1024,不修改这里web服务器修改再大也没用。若要用就修改很几个办法,这里说其中一个:

修改/etc/security/limits.conf
 soft nofile 10240
 hard nofile 10240
重启后生效
tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F”.” ‘{print $1″.”$2″.”$3″.”$4″.”}’ | sort |uniq -c | sort -nr | head-5
ls /var/log/ -1R | grep “-” | wc -l
netstat -n | awk ‘/^tcp/ {print $5}’ | awk -F: ‘{print $1}’ | sort | uniq -c | sort -rn
cat /dev/urandom | head -1 | md5sum | head -c 32 >> /pass
cat access.log | awk ‘{print $1}’ | sort | uniq -c | sort -n -r | head -5

我们一般通过hexdump命令 来查看二进制文件的内容。

hexdump -C XXX(文件名) -C是参数 不同的参数有不同的意义

-C 是比较规范的 十六进制和ASCII码显示

-c 是单字节字符显示

-b 单字节八进制显示

-o 是双字节八进制显示

-d 是双字节十进制显示

-x 是双字节十六进制显示

VSZ:虚拟内存集,进程占用的虚拟内存空间

RSS:物理内存集,进程战用实际物理内存空间

fsck用来检查和维护不一致的文件系统。若系统掉电或磁盘发生问题,可利用fsck命令对文件系统进行检查

加载BIOS–>读取MBR–>Boot Loader–>加载内核–>用户层init一句inittab文件来设定系统运行的等级(一般3或者5,3是多用户命令行,5是界面)–>init进程执行rc.syninit–>启动内核模块–>执行不同级别运行的脚本程序–>执行/etc/rc.d/rc.local(本地运行服务)–>执行/bin/login,就可以登录了。

我们可以把符号链接,也就是软连接 当做是 windows系统里的 快捷方式。

硬链接 就好像是 又复制了一份,举例说明:

ln 3.txt 4.txt 这是硬链接,相当于复制,不可以跨分区,但修改3,4会跟着变,若删除3,4不受任何影响。

ln -s 3.txt 4.txt 这是软连接,相当于快捷方式。修改4,3也会跟着变,若删除3,4就坏掉了。不可以用了。

dd 命令是以个强大的命令,在复制的同时进行转换

dd if=/dev/sda of=./mbr.txt bs=1 count=512

以下操作全部在命令行状态操作,不要在编辑状态操作。

在文本里 移动到想要复制的行 按yy 想复制到哪就移动到哪,然后按P 就黏贴了

删除行 移动到改行 按dd

删除全部 dG 这里注意G一定要大写

按行查找 :90 这样就是找到第90行

按字母查找 /path 这样就是 找到path这个单词所在的位置,文本里可能存在多个,多次查找会显示在不同的位置。

grub-install /dev/sda
vi /etc/sysctl.conf 这里修改参数
sysctl -p 刷新后可用
expr $[RANDOM9] +1
RANDOM随机数
9取余数范围0-38

每秒新建连接数 一般都是由防火墙来做,apache本身好像无法设置每秒新建连接数,只能设置最大连接:

iptables -A INPUT -d 172.16.100.1 -p tcp –dport 80 -m limit –limit 1/second -j ACCEPT

FTP协议有两种工作方式:PORT方式和PASV方式,中文意思为主动式和被动式。

PORT(主动)方式的连接过程是:客户端向服务器的FTP端口(默认是21)发送连接请求,服务器接受连接,建立一条命令链路。当需要传送数据时,客户端在命令链路上用PORT 命令告诉服务器:“我打开了XX端口,你过来连接我”。于是服务器从20端口向客户端的 XX端口发送连接请求,建立一条数据链路来传送数据。

PASV(被动)方式的连接过程是:客户端向服务器的FTP端口(默认是21)发送连接请求,服务器接受连接,建立一条命令链路。当需要传送数据时,服务器在命令链路上用PASV 命令告诉客户端:“我打开了XX端口,你过来连接我”。于是客户端向服务器的XX端口 发送连接请求,建立一条数据链路来传送数据。

从上面可以看出,两种方式的命令链路连接方法是一样的,而数据链路的建立方法就完全不同。

grep “^#/{1,/}[^]” /etc/inittab
grep “/:[0-9]/{1/}:” /etc/inittab
在脚本里加入
#!/bin/bash
# chkconfig: 345 85 15
# description: httpd
然后保存
chkconfig httpd –add 创建系统服务
现在就可以使用service 来 start or restart
#!/bin/shfor i in `seq -f g 1 20`do        useradd user$i         echo "user$i-`echo $RANDOM|md5sum|cut -c 1-5`" |passwd --stdin user$i >/dev/null 2>&1done
#!/bin/bash
for ip in `seq 1 255`
do
ping -c 1 192.168.1.$ip > /dev/null 2>&1
if [ $? -eq 0 ]; then
echo 192.168.1.$ip UP
else
echo 192.168.1.$ip DOWN
fi
}&
done
wait

创建一个函数,能接受两个参数:

1)第一个参数为URL,即可下载的文件;第二个参数为目录,即下载后保存的位置;

2)如果用户给的目录不存在,则提示用户是否创建;如果创建就继续执行,否则,函数返回一个51的错误值给调用脚本;

3)如果给的目录存在,则下载文件;下载命令执行结束后测试文件下载成功与否;如果成功,则返回0给调用脚本,否则,返回52给调用脚本;

[root@localhost tmp]# cat downfile.sh
#!/bin/bash
url=$1
dir=$2
download()
{
cd $dir >> /dev/null 2>&1
if [ $? -ne 0 ];then
read -p “$dir No such file or directory,create?(y/n)” answer
if [ “$answer” == “y” ];then
mkdir -p $dir
cd $dir
wget $url 1> /dev/null 2>&1
else
return “51”
fi
fi
if [ $? -ne 0 ]; then
return “52”
fi
}
download $url $dir
echo $?

1、创建一个函数,可以接受一个磁盘设备路径(如/dev/sdb)作为参数;在真正开始后面步骤之前提醒用户有危险,并让用户选择是否继续;而后将此磁盘设备上的所有分区清空(提示,使用命令dd if=/dev/zero of=/dev/sdb bs=512 count=1实现,注意其中的设备路径不要写错了;

如果此步骤失败,返回67给主程序;

接着在此磁盘设备上创建两个主分区,一个大小为100M,一个大小为1G;如果此步骤失败,返回68给主程序;

格式化此两分区,文件系统类型为ext3;如果此步骤失败,返回69给主程序;

如果上述过程都正常,返回0给主程序;

2、调用此函数;并通过接收函数执行的返回值来判断其执行情况,并将信息显示出来;

local Darray=(`ls /dev/sd[a-z]`)
for i in ${Darray};do
[[ “$i” == “$1” ]] && Sd=$i &&break
done
else
return66
fi

#当匹配成功,进入选择,告诉用户,是否继续,输错的话进入无限循环,当用户选择Y,则清空目标分区,且跳出while循环

while :;do
read -p “Warning!!!This operation will clean $Sd data.Next=y,Quit=n [y|n]:” Choice
case $Choice in
y)
dd if=/dev/zero of=$Sd bs=512 count=1 &> /dev/null &&break 
                                            




Powered by tp钱包官方网站 @2013-2022 RSS地图 HTML地图

Copyright Powered by站群 © 2013-2024